光速运算来了!光计算打破电子架构限制,重塑AI未来
现在的AI大模型是越来越能打了,但背后的算力消耗简直离谱,训练一个GPT-4这样的模型,够50万台高性能服务器连轴转七天,电费账单想想都让人头皮发麻。
现在的AI大模型是越来越能打了,但背后的算力消耗简直离谱,训练一个GPT-4这样的模型,够50万台高性能服务器连轴转七天,电费账单想想都让人头皮发麻。
在北京中关村举行的2025人工智能+大会上,图灵奖得主姚期智院士指出,大模型正革新各行各业,而未来AI发展最重要的方向是通用人工智能(AGI)。实现这一目标,首先需要突破的就是算力瓶颈。
当电子在纳米导线里气喘吁吁地追赶摩尔定律时,上海交通大学的一间暗室却亮起了一束“会思考”的激光——它只用一次穿过芯片的 300 皮秒,就把 16 384 个矩阵元素同时乘加完毕,而功耗不到同尺寸 GPU 的 1/200。11 月 14 日,《Nature Ph
通过单次光传播就能完成复杂的张量计算,以光速完成深度学习中的关键步骤——这听起来像是科幻小说中的场景,但芬兰阿尔托大学领导的国际研究团队已将其变为现实。
谷歌近日推出了一套名为“私有AI计算”(Private AI Compute)的云端系统,旨在革命性地保护用户在人工智能处理过程中的数据安全。谷歌AI创新副总裁杰伊·亚格尼克(Jay Yagnik)强调,这项技术在一个完全隔离的环境中运行AI任务,实现了任何人
英特尔称霸全球芯片市场的时代,高通曾羡慕过数据中心巨头。如今,英伟达已经证明了人工智能处理能够彻底改变芯片制造商的财务状况,高通的处境更是雪上加霜。高通也是高端 Arm CPU 和智能手机附加电路的产量领导者,并且拥有打造服务器 CPU 和人工智能加速器的知识
当ChatGPT掀起生成式AI浪潮,越来越多企业和开发者开始探索大型语言模型(LLM)的应用价值。但随之而来的是现实挑战:动辄百亿、千亿参数的模型,不仅需要昂贵的硬件支撑,推理时的高延迟也让不少场景望而却步。如何在保证模型效果的前提下,实现“又快又省”的运行?
在现代计算领域,特别是涉及高性能计算(HPC)和并行处理的场景下,C++开发者常常面临一个挑战:如何高效利用CPU、GPU和其他加速器硬件,而不陷入底层内核编程的泥沼。ArrayFire正是为此而生。它是一个开源的高性能通用张量库,由ArrayFire公司开发
研究量子物质的不同相及其相变是凝聚态物理的核心问题。长期以来,人们主要依赖Landau的对称性破缺范式来理解这些现象。在这一框架下,不同的相由基态中是否存在某种全局对称性的自发破缺来加以区分。然而,随着研究的深入,人们逐渐意识到Landau范式虽然强大,却不足
其实,时间的概念,并不复杂,我们每⼀个⼈都可以感受到时光的流淌和岁⽉的⽆情。但即便是历尽千年的岁⽉,和⽆数的先贤,直到今天,我们仍然没能尽窥时间的奥义。但没关系啊,虽说没能完全尽窥,但多多少少我们还是了解了⼀点的。
可划分为“几何—场论—信息”三条主线,每条线都有对应的“硬核”与“软核”技术。
在当下这个被技术深刻塑造的时代,人工智能正以前所未有的速度渗透进我们的日常与产业。它不仅重塑了手机、PC 等个人设备的使用体验,也在汽车等复杂系统中展现出强大的潜能。而要让这些端侧设备真正发挥人工智能的力量,内存与存储的价值愈发凸显。它们不仅是信息的承载者,更
对 MLOps 团队而言,AI 基础设施的关键变化在于:以网络为先的集群设计、面向内存的调度策略,以及数据中心级的供电与散热。优化目标应聚焦于集群层面的作业吞吐、可靠性与可运维性,而非单卡峰值指标。本文将最新基础设施进展转化为可落地的指导手册、SLO 与采购要
本周,苹果发布了其最新一代 iPhone——iPhone 17 系列,并带来了新一代苹果尖端智能手机 SoC:A19 和 A19 Pro。凭借台积电最新的 3nm 制程以及苹果多个功能模块架构的重大升级,苹果一如既往地承诺,其性能将比上一代略有提升。
简单来说,计算图就是将模型中的数学运算(如加法、乘法、矩阵卷积)和数据流向,以图形化的方式拆解为节点(运算)与边的结构。与静态计算图 “先画好图、再跑数据” 的模式不同,动态计算图采用 “边跑数据、边建图” 的逻辑 —— 代码执行到哪一步,对应的计算节点和数据